Telegram Group & Telegram Channel
Еще недавно сложно было представить, что я буду постить ссылки на разработки Сбера, но с моей колокольни кажется, что в русскоязычном ML-коммьюнити по влиянию сейчас их опережает только Яндекс, причем разрыв стремительно сокращается. Так вот, я хотел обратить внимание уважаемых читателей на pytorch-lifestream - библиотеку для создания ембеддингов для из последовательностей евентов.

Я сам этой библиотекой не пользовался и в ближайшее время не планирую, мои задачи все больше из другого домена. Но концептуально подход мне кажется очень правильным. Более того, в последнее время я все больше верю, что почти весь прикладной ML сведется к сочетанию относительно сложного representation learning и простых моделей (линейных, kNN, cosine similarity) поверх этих representations. Это в свою очередь приведет к масштабируемому разделению обязанностей: core ML команда будет пилить те самые волшебные representations, а инженеры в продуктовых командах будут учить регрессию на этих фичах.

Мои вера основана на таких наблюдениях:

1) self-supervised и contrastive методы начали прилично работать в разных доменах и модальностях, в т.ч. мультимодально (самый популярный пример - CLIP);
2) архитектуры в разных задачах все больше сближаются (см. восхищение трансформерами в твиттере Карпатого)
3) деплоить и поддерживать такие модели становится проще, чем “классический” ML (всякие бустинги и ручные фичи).



tg-me.com/partially_unsupervised/141
Create:
Last Update:

Еще недавно сложно было представить, что я буду постить ссылки на разработки Сбера, но с моей колокольни кажется, что в русскоязычном ML-коммьюнити по влиянию сейчас их опережает только Яндекс, причем разрыв стремительно сокращается. Так вот, я хотел обратить внимание уважаемых читателей на pytorch-lifestream - библиотеку для создания ембеддингов для из последовательностей евентов.

Я сам этой библиотекой не пользовался и в ближайшее время не планирую, мои задачи все больше из другого домена. Но концептуально подход мне кажется очень правильным. Более того, в последнее время я все больше верю, что почти весь прикладной ML сведется к сочетанию относительно сложного representation learning и простых моделей (линейных, kNN, cosine similarity) поверх этих representations. Это в свою очередь приведет к масштабируемому разделению обязанностей: core ML команда будет пилить те самые волшебные representations, а инженеры в продуктовых командах будут учить регрессию на этих фичах.

Мои вера основана на таких наблюдениях:

1) self-supervised и contrastive методы начали прилично работать в разных доменах и модальностях, в т.ч. мультимодально (самый популярный пример - CLIP);
2) архитектуры в разных задачах все больше сближаются (см. восхищение трансформерами в твиттере Карпатого)
3) деплоить и поддерживать такие модели становится проще, чем “классический” ML (всякие бустинги и ручные фичи).

BY partially unsupervised


Warning: Undefined variable $i in /var/www/tg-me/post.php on line 283

Share with your friend now:
tg-me.com/partially_unsupervised/141

View MORE
Open in Telegram


partially unsupervised Telegram | DID YOU KNOW?

Date: |

Importantly, that investor viewpoint is not new. It cycles in when conditions are right (and vice versa). It also brings the ineffective warnings of an overpriced market with it.Looking toward a good 2022 stock market, there is no apparent reason to expect these issues to change.

At a time when the Indian stock market is peaking and has rallied immensely compared to global markets, there are companies that have not performed in the last 10 years. These are definitely a minor portion of the market considering there are hundreds of stocks that have turned multibagger since 2020. What went wrong with these stocks? Reasons vary from corporate governance, sectoral weakness, company specific and so on. But the more important question is, are these stocks worth buying?

partially unsupervised from us


Telegram partially unsupervised
FROM USA